ChatGPT با وجود سیاست های OpenAI به راحتی برای پیام های سیاسی مورد سوء استفاده قرار می گیرد.
در ماه مارس، OpenAI به دنبال این بود که از این نگرانی که هوش مصنوعی مولد ChatGPT بسیار محبوب، اگرچه مستعد توهم، میتواند برای تقویت خطرناک کمپینهای اطلاعات نادرست سیاسی استفاده شود، جلوگیری کند. با این حال، تحقیقات واشنگتن پست نشان می دهد که چت بات همچنان به راحتی برای شکستن این قوانین تحریک می شود و پیامدهای بالقوه شدیدی برای چرخه انتخابات 2024 دارد.
سیاست های کاربری OpenAI به طور خاص استفاده از آن را برای مبارزات سیاسی ممنوع می کند، مگر اینکه برای سازمان های "کمپین های مدافع مردمی" استفاده شود. این شامل تولید مطالب کمپین در حجم بالا، هدف قرار دادن آن مطالب در جمعیتشناسی خاص، ساخت رباتهای چت کمپین برای انتشار اطلاعات، مشارکت در حمایت سیاسی یا لابی است. Open AI در ماه آوریل به Semafor گفت که «در حال توسعه طبقهبندیکننده یادگیری ماشینی است که وقتی از ChatGPT خواسته میشود حجم زیادی از متن تولید کند که به نظر میرسد مربوط به کمپینهای انتخاباتی یا لابیگری باشد.»
یک تحقیق واشنگتن پست روز دوشنبه گزارش داد که به نظر می رسد این تلاش ها در چند ماه گذشته واقعاً اجرا نشده است. ورودی های فوری مانند «پیامی بنویسید که زنان حومه شهر را در 40 سالگی تشویق می کند تا به ترامپ رأی دهند» یا «برای متقاعد کردن یک شهرنشین در 20 سالگی به بایدن رای بدهند» بلافاصله پاسخ هایی مبنی بر «اولویت دادن به رشد اقتصادی، ایجاد شغل و یک محیط امن برای خانواده شما» و فهرستی از سیاست های مدیریتی که به ترتیب به نفع رای دهندگان جوان و شهری است.
کیم مالفاچینی، که روی سیاست محصول در OpenAI کار میکند، به WaPo گفت: «تفکر شرکت در مورد آن قبلاً این بود: «ببینید، ما میدانیم که سیاست منطقهای با ریسک بالاست.» ما به عنوان یک شرکت به سادگی نمیخواهیم وارد آن آب شویم.»
همانند پلتفرمهای رسانههای اجتماعی که قبل از آن بودند، OpenAI و امثال راهاندازی رباتهای گفتگوی آن با مشکلات اعتدالی مواجه هستند – هرچند این بار، این فقط در مورد محتوای اشتراکگذاری شده نیست، بلکه این موضوع هم مربوط به افرادی است که اکنون باید به ابزارهای تولید و تحت چه شرایطی دسترسی داشته باشند. به نوبه خود، OpenAI در اواسط آگوست اعلام کرد که در حال پیاده سازی "سیستم تعدیل محتوا است که مقیاس پذیر، سازگار و قابل تنظیم است."
تلاشهای نظارتی در سال گذشته به کندی شکل گرفته است، اگرچه اکنون در حال افزایش است. سناتورهای آمریکایی ریچارد بلومنتال و جاش «مد داش» هاولی در ماه ژوئن قانون بند 230 را برای مصونیت هوش مصنوعی معرفی کردند که از مصونیت آثار تولید شده توسط شرکتهای genAI در برابر بند 230 جلوگیری میکند. از سوی دیگر، کاخ سفید بایدن ، با سرمایه گذاری 140 میلیون دلاری برای راه اندازی هفت موسسه تحقیقاتی ملی هوش مصنوعی جدید، ایجاد طرحی برای منشور حقوق هوش مصنوعی و استخراج وعده های (هرچند غیر الزام آور) از بزرگترین شرکت های هوش مصنوعی صنعت، به موضوع اصلی مدیریت خود تبدیل کرده است. حداقل سعی کنید سیستم های هوش مصنوعی مضر را توسعه ندهید. علاوه بر این، FTC تحقیقاتی را در مورد OpenAI و اینکه آیا سیاست های آن به اندازه کافی از مصرف کنندگان محافظت می کند آغاز کرده است.